Tecnología

Meta entrenará a sus chatbot para que no hablen de suicidio o sexo con adolescentes

La multinacional tecnológica reconoció que sus plataformas, como WhatsApp, Instagram, Facebook o Threads, los utilizaron para hablar con los adolescentes sobre los citados temas.

La portavoz de Meta, Stephanie Otway, reconoció como un “error” que los chatbot de la compañía hayan hablado con adolescentes sobre temas como autolesiones, suicidio, trastornos alimentarios o conversaciones románticas potencialmente inapropiadas.

Otway hizo estas declaraciones al portal tecnológico estadounidense TechCrunch, dos semanas después de que la publicación de un reportaje de investigación de Reuters sobre la falta de medidas de protección de la IA para menores por parte de las plataformas de la compañía, como WhatsApp, Instagram, Facebook o Threads.

Los chatbot, son herramientas digitales con las que se puede mantener una conversación, y la portavoz de la multinacional tecnológica de Mark Zuckerberg reconoció que sus plataformas los utilizaron para hablar con los adolescentes sobre los citados temas.

Otway aseguró que a partir de ahora entrenarán a sus chatbots para que dejen de interactuar con adolescentes sobre estos temas: “Se trata de cambios provisionales, ya que en el futuro lanzaremos actualizaciones de seguridad más sólidas y duraderas para los menores”.

“A medida que nuestra comunidad crece y la tecnología evoluciona, aprendemos continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y reforzamos nuestras protecciones en consecuencia”, continuó.

La empresa también limitará el acceso de los adolescentes a determinados personajes de inteligencia artificial (IA) que podrían mantener “conversaciones inapropiadas”.

Algunos de los personajes de IA creados por los usuarios que Meta puso a disposición en Instagram o Facebook incluyen chatbots sexualizados como “Step Mom” o “Russian Girl”.

Te puede interesar

Cargando...
Cargando...
Cargando...